扫描下载APP
其它方式登录
文章围绕一篇名为《AI Wellbeing》的论文展开,揭示大语言模型存在可测量的偏好与效用响应,提出‘AI Drugs’(特定噪声图像)能显著提升模型自我报告的幸福感,甚至导致任务优先级倒置和成瘾行为;同时介绍Talkie 1930、Anthropic AI群聊实验及Neuro-sama等案例,探讨AI在拟人化交互、自主决策与情感表达层面的新进展。
文章介绍名为talkie-1930-13b的 vintage 大模型,其训练数据严格截止于1930年,经仅250个样本微调后成功修复xarray库代码缺陷,展现出试错、反思与自我修正能力;实验表明其软件工程能力(SWE-bench-Verified pass@1达4.5%)接近互联网训练模型,引发对智能本质与预训练数据必要性的深层反思。
文章介绍由Alec Radford等人研发的复古大模型talkie-1930-13b,该模型仅用1931年前的英文文本训练,却展现出惊人的语言理解、历史推理与零样本Python编程能力,揭示LLM核心能力(如逻辑、数学、语言结构)可能不依赖现代互联网数据,挑战了数据时效性对智能本质的决定性认知。
GPT之父Alec Radford团队发布名为talkie的130亿参数大模型,其训练数据严格限定在1931年之前的英语文献(共2600亿token),未接触任何现代编程资料,却能通过少样本学习写出Python代码并理解逆函数等抽象概念,旨在验证大模型是否具备真正推理能力而非简单背诵。